В OpenAI корректируют запрет на использование ChatGPT для военных целей
В OpenAI корректируют запрет на использование ChatGPT для военных целей. Фото: СС0
До 10 января политика использования компании запрещала «деятельность, сопряженную с высоким риском физического вреда, включая», в частности, «разработку оружия», а также «военную деятельность», сообщает The Intercept.
Теперь политика запрещает использование «нашего сервиса для нанесения вреда себе или другим», а также использование технологий для «разработки или использования оружия». Военные силы и война больше нигде не упоминаются.
В OpenAI отметили, что изменение формулировки было сделано для того, чтобы правила компании были «более читабельными». Якобы, утверждение «не причиняйте вреда другим», является широким, но люди могут легко его понять и применить в различных контекстах.
Администрация компании настаивает, что ее продукты нельзя использовать, например, для разработки оружия, но уместно для целей «национальной безопасности». В частности ИИ от OpenAI уже применяется в программе DARPA, «чтобы стимулировать создание новых инструментов кибербезопасности для защиты программного обеспечения с открытым исходным кодом, от которого зависят критическая инфраструктура и промышленность».
Startpack подготовил список систем искусственного интеллекта. Искусственный интеллект (ИИ) широко используется в бизнесе — начиная от повышения качества обслуживания клиентов до автоматизации бизнес-процессов. Один из видов искусственного интеллекта — нейронные сети. Нейросети с помощью алгоритмов способны распознавать закономерности в данных и генерировать новые. Это лишь часть сфер, где может применяться искусственный интеллект. Внедрение искусственного интеллекта в работу компании сократит расходы и время.
Статьи по теме
Комментариев пока не было